Dalle “Allucinazioni dell’I.A.” alla Strategia Nazionale e ad Adriano, il primo dipendente robot della P.A.

L’importanza del senso critico nelle fasi del processo dirompente dell’Intelligenza Artificiale

Servizi Comunali
di Simonetta Cipriani
11 Aprile 2025

 

Ce ne accorgiamo solo ora ma è dai tempi del “machine learning” con le intuizioni di Tom Mitchell nel 1997 che è cominciato il processo di innovazione dell’Intelligenza Artificiale che oggi procede il suo percorso insieme al “Deep learning” (ossia l’apprendimento approfondito che simula le reti neurali) nelle dinamiche dell’intelligenza generativa e prende un suo posto anche nella Pubblica Amministrazione.

I programmi imparano i comportamenti mediante l’addestramento di algoritmi di Machine learning capaci di effettuare previsioni di sviluppo secondo una tecnica di autoapprendimento che trova le basi su un sistema di esempi. Essi si replicano e perfezionano sfruttando i progressi computazionali e le tecniche di allenamento per apprendere modelli complessi che si alimentano di big data, da cui estrapolare e riconoscere casi specifici. Ciò avviene tramite un processo ottimizzato di output che trova compimento mediante una sorta di “rete neurale profonda”, in riferimento ai vari livelli coinvolti.

L’obiettivo? L’efficientamento, la riduzione dei tempi, la definizione dei procedimenti, l’aumento di qualità e quantità di servizi, la produttività e massimizzazione delle risorse.

L’attenzione? In primo luogo, la dipendenza passiva e incontrollata da qualcosa che potrebbe apparentemente risolvere il bisogno di “tutto e subito” tipico della nostra società attuale. Poi, le possibili “allucinazioni” dell’I.A. derivanti proprio dall’inevitabile crescente riduzione del senso critico fondamentale per selezionare l’affidabilità delle risposte del sistema.


Le allucinazioni dell'I.A. 

Una recente ordinanza del 14 marzo 2025 del Tribunale di Firenze, sez. spec. in materia di imprese, ha valutato una questione sottoposta dal reclamante per la quale i richiami giurisprudenziali indicati nell’avversa comparsa di costituzione risultavano inesistenti. Per questo motivo il reclamante ne chiedeva la condanna per responsabilità aggravata ex art. 96 cpc. Ebbene il difensore della società costituita chiamata a difesa con note autorizzate sul punto dichiarava che i riferimenti giurisprudenziali fossero il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’I.A. “C.”, del cui utilizzo il patrocinatore si dichiarava non essere a conoscenza.

L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’I.A. inventi risultati inesistenti ma che, a seguito di una seconda interrogazione, vengono confermati come veritieri. In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’argomento trattato il cui contenuto, invece, non aveva nulla a che vedere con esso. La reclamata, pur riconoscendo l'omesso controllo sui dati così ottenuti, ha chiesto lo stralcio di tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva.”

Il caso fa comprendere quanto sia importante governare con senso critico l’utilizzo dei sistemi di I.A. in ogni ambito, a maggior ragione in quello pubblico che è preposto a curare l’interesse della collettività.

Quali sono gli attuali passi nella regolamentazione del processo di intelligenza artificiale?


Linee guida AGID per l'adozione dell'intelligenza artificiale 

Dal 20 marzo scorso è terminata la consultazione pubblica sullo stato dell’arte dell’I.A. sia in ambito pubblico che privato per recepire relativi impulsi di sviluppo. Alla base della consultazione avviata con la Determinazione AGID n. 17 del 17 febbraio 2025, ci sono le Linee Guida Agid per l’adozione dell’intelligenza artificiale. Esse propongono un approccio strutturato in linea con il Piano Triennale per l’Informatica nella PA 2024-2026.

Ne emerge la necessità di una progettazione strategica che parte dalla valutazione di impatto per non trascurare vulnerabilità e pone la massima attenzione alla sicurezza cibernetica. 

Si delineano nuove figure professionali poste a presidio di questo percorso come l’AI Architect per costruire sistemi di I.A. che denotino un certo livello di maturità del Modello da adottare. Ciò sotto il profilo sia della tecnologia, che dei processi, dell’organizzazione delle competenze e degli strumenti messi in campo per la strategia di efficienza operativa e efficientamento dei servizi della cosa pubblica. Alla base la cura dell’impatto tecnologico, gestionale, organizzativo e culturale finalizzato ad assicurare un uso dell’I.A. conforme ai principi di equità, trasparenza e accountability.


Il DDL 1146/2025

Per predisporre la “strategia nazionale per l’intelligenza artificiale” è stato approvato in Senato, sempre il 20 marzo scorso, il DDL di iniziativa governativa n. 1146 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” ora assegnato alla Camera (Atto n. C.2316). Si tratta di una legge delega che si aggiunge (“non produce nuovi obblighi”) e va armonizzata con il Regolamento UE 2024/1689 (AI ACT), tant’è che vi rinvia per le definizioni. 

In esso si ripropongono nel capo I i princìpi in materia di informazione e di riservatezza dei dati personali con la previsione di un obbligo di informativa per garantire la conoscibilità dei rischi dell’uso di sistemi artificiali e il diritto di opporsi ai trattamenti autorizzati dei dati personali. Il testo apre ai principi in materia di sviluppo economico con la promozione di strumenti di I.A. per migliorare l’interazione uomo-macchina nei settori produttivi, favorire la creazione di un mercato di I.A., facilitare l’accesso a dati di alta qualità e indirizzare le piattaforme di e-procurement delle PA verso la scelta di fornitori che garantiscano la localizzazione e l’elaborazione di dati strategici presso data center italiani, ivi compreso per le procedure di disaster recovery e business continuity con modelli di standard elevati in termini di sicurezza e trasparenza. 

Il DDL affida le attività svolte a scopi di sicurezza e difesa nazionale dagli organismi di intelligence al controllo dell'Agenzia per la cybersicurezza nazionale e delle Forze armate per la difesa nazionale, che sono escluse dall'ambito applicativo della legge. Anche in merito a tale attività si ribadisce che i sistemi di intelligenza artificiale destinati all’uso in ambito pubblico devono essere installati su server ubicati nel territorio nazionale, al fine di garantire la sovranità e la sicurezza dei dati sensibili dei cittadini.

C’è poi il capo II dedicato alle disposizioni di settore intervenendo a disciplinare l’uso di sistemi di intelligenza artificiale in ambito sanitario e di disabilità, in materia di lavoro, nella pubblica amministrazione e nell’amministrazione giudiziaria e ponendo a presidio le Autorità nazionali per l’I.A..

 Il testo apre all’utilizzazione in funzione strumentale e di supporto dell’I.A. sia all’attività delle professioni intellettuali (previa chiara informativa del ricorso a tali sistemi) sia all’attività provvedimentale della PA anche se fa salvi per quest’ultima la funzione di autonomia, il potere decisionale e relativa imputazione della responsabilità dei provvedimenti alla persona fisica, che occupa il ruolo di dirigente pubblico. Probabilmente le novità dei sistemi di intelligenza artificiale implicheranno una riforma o aggiornamento delle norme poste a presidio del procedimento amministrativo a partire dalla legge 241/1990: dai tempi dei procedimenti alle conseguenze in caso di mancato rispetto di essi e delle corrette dinamiche del reale funzionamento dell’IA. 

In ambito giudiziario è rimesso al Ministero della giustizia di identificare gli impieghi di I.A. per l’organizzazione, la semplificazione e le attività amministrative accessorie, ma trattandosi di materia estremamente delicata rimane in capo al magistrato “ogni decisione sull’interpretazione e applicazione della legge” per preservare il principio del giusto ed equo processo vietando la cd “giustizia predittiva”.

Per le cause che hanno ad oggetto il funzionamento di un sistema di I.A., l’art. 17 ha rimesso al Tribunale la competenza esclusiva in materia con relativa modifica dell’art. 9 cpc.

L’AGID e l’ACN sono designate quali Autorità Nazionali per l’I.A. mentre alla Banca d’Italia, alla Consob e all’IVASS è attribuito il ruolo di vigilanza del mercato. Restano fermi le competenze, i compiti e poteri del Garante per la protezione dei dati personali.


Si pongono numerose deleghe al governo per adeguare la normativa nazionale al Regolamento UE 2024/1689 mediante l’adozione di decreti legislativi entro dodici mesi, tra cui l’introduzione di un marchio con l’acronimo “IA” all’inizio o fine di un contenuto generato da sistemi di I.A., la previsione di percorsi di alfabetizzazione e formazione sull’I.A., anche da parte di ordini professionali e associazioni di categoria, il potenziamento di curricoli scolastici per i percorsi di formazione superiore ma anche nel sistema dell’università e ricerca. La delega riguarda anche la previsione di strumenti cautelari per inibire e rimuovere contenuti generati illecitamente con sistemi di I.A. oltre che di sanzioni mirate e fattispecie di reato, la precisazione di criteri di imputazione della responsabilità penale per gli illeciti inerenti a sistemi di I.A., nonché di responsabilità civile con esatta ripartizione dell’onere della prova

Spicca una novità in merito alle norme sul diritto di autore (L. 633/241): si specifica che la tutela si applica solo alle opere di ingegno umano e dev’essere il risultato di un’opera intellettuale dell’autore anche laddove create con l’ausilio di strumenti di intelligenza artificiale. Sono escluse quindi le opere create solo con l’I.A.

Si prevede l’introduzione nella L. 633/1941 di sanzioni penali per la punizione di condotte di riproduzione, estrazione, di testo, dati da opere o altri materiali disponibili in rete o in banche dati commesse attraverso sistemi di I.A. se in violazione degli artt. 70 ter e quater della LdA. Vengono disciplinati il reato di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale” e specifiche aggravanti per i reati di aggiotaggio e manipolazione del mercato.

Infine, il DDL 1146/2025 prevede all’art. 11 che l’utilizzo “dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali” e all’art. 12 l’istituzione presso il Ministero del lavoro e delle politiche sociali dell’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, “con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza artificiale”. A tali previsioni andranno coniugati i nuovi scenari che si apriranno con il recepimento entro il 21/12/2026 della direttiva UE 2024/2831 sul lavoro per le piattaforme digitali.

 

Adriano 

In tutto questo processo, il 28 marzo 2025 è stato presentato dalla Camera di Commercio di Roma ADRIANO, il primo dipendente robot della Pubblica Amministrazione italiana come una sintesi della computer vision con l’intelligenza artificiale. In tal modo esso riesce a riconoscere le persone e gli oggetti intorno a sé, ad adattare il proprio comportamento mediante movimenti naturali in tempo reale, ad interagire in maniera sicura e interloquire con i visitatori. Adriano sta completando il proprio autoapprendimento con sempre maggiori big data per un ampio progetto di digitalizzazione e innovazione all’interno della Pubblica Amministrazione che prevede l’uso di robot in ambienti pubblici nell’ambito dell’accoglienza turistica, dell’assistenza ai cittadini e della gestione dei servizi.


Conclusioni

L’excursus delle conquiste raggiunte e in itinere ripropone sempre più l’attenzione iniziale: solo il mantenimento di un forte senso critico consentirà di beneficiare di questo nuovo strumento dell’intelligenza artificiale senza finire per dipendervi in maniera passiva e incontrollata.


--> Per approfondire alcuni aspetti:

  • Consulta gli articoli dell'Avv. Simonetta Cipriani:
  1. In GU il Regolamento UE sull’Intelligenza Artificiale (AI Act),
  2. L’Intelligenza Artificiale: risorsa cruciale per la P.A. e gli enti locali, 
  3. AI ACT prime riflessioni sugli effetti per gli enti locali
  4. Al G7 a Trento l’Italia propone lo sviluppo di un Toolkit per l’intelligenza artificiale nel settore pubblico,
  5. La digitalizzazione completa dell’intero contratto pubblico nell’Ecosistema di approvvigionamento digitale,
  6. La Strategia italiana per l’IA 2024-2026,
  7. Come va usata l’Intelligenza Artificiale nelle Pubbliche Amministrazioni?.

Indietro

l'Editoriale

Non hai trovato le informazioni che stavi cercando?

Poni un quesito ai nostri esperti

CHI SIAMO

La posta del Sindaco è rivolto ad amministratori ed operatori degli enti locali: ricco di contenuti sempre aggiornati, il cuore del portale risiede nella possibilità di accedere, in modo semplice e veloce, ad approfondimenti, informazioni, adempimenti, modelli e risposte operative per una gestione efficiente e puntuale dell'attività amministrativa.

La Posta del Sindaco - ISSN 2704-744X

HALLEY notiziario

INFORMAZIONI

Ricevi via email i nuovi contenuti pubblicati nel portale

In collaborazione con:

la posta del sindaco

CONTATTI

Email

halley@halley.it

Telefono

+39 0737.781211

×